[速報] 機械学習モデルを簡単にデプロイできる Amazon SageMaker Serverless Inference が発表されました!(プレビュー) #reInvent
こんばんは!ラスベガスの現地からre:Invent参加中のCX事業本部MAD事業部のYui(@MayForBlue)です!
先ほどまで機械学習のKeynoteに参加していました!その中でAmazon Sagemaker の インフラのイノベーションを加速させる新機能のひとつとして Amazon SageMaker Serverless Inference が発表されたので速報をお伝えします!
Amazon SageMaker Serverless Inference とは
Amazon SageMaker Serverless Inference はインフラの構築、管理を利用者側で行うことなく推論用の機械学習モデルを簡単にデプロイできる新しいオプションです。
機械学習のモデルのデプロイ時にサーバーレスのオプションを選択するだけで、推論リクエストの量に応じて計算能力を自動的にプロビジョニング、スケーリング、オフにします。
このオプションでは推論コードの実行期間と処理されたデータの量に対してのみ料金が発生し、アイドルタイムに対しては料金が発生しません。
Amazon SageMaker Serverless Inferenceは断続的または予測不可能なトラフィックを持つアプリケーションなど、一般的にサーバーレスアーキテクチャが選択される場面で最適です。
SageMaker Inferenceエンドポイントは、マネジメントコンソール、AWS SDK、またはAWS Command Line Interface (CLI)から作成可能です。
※ 現在プレビューとなります。
利用可能なリージョン
現在、以下のリージョンでプレビューとして利用できます。
- US East (Northern Virginia)
- US East (Ohio)
- US West (Oregon)
- Europe (Ireland)
- Asia Pacific (Tokyo)
- Asia Pacific (Sydney)